home *** CD-ROM | disk | FTP | other *** search
/ Ian & Stuart's Australian Mac: Not for Sale / Another.not.for.sale (Australia).iso / hold me in your arms / ES Cyberama / Artifice and Intelligence < prev    next >
Text File  |  1993-11-24  |  17KB  |  371 lines

  1. Arena Magazine No.3 February-March 1993
  2.  
  3. FEATURES
  4.  
  5. ARTIFICE AND INTELLIGENCE
  6.  
  7. Alan Roberts
  8.  
  9.  
  10. The media regularly call our attention to the heavy tread of
  11. metallic feet: the robots, we are told, are moving in on us.
  12. They will be intelligent robots, their micro-processor
  13. brains performing billions of calculations each second, with
  14. swift access to thousands of billions of pieces of data in
  15. their memories. The coming developments in Artificial
  16. Intelligence (AI) may mean that, as a species, we have
  17. created our successors . . .
  18.  
  19. Will the computers, mobile or immobile, surpass all human
  20. skills in the near future or medium future, then? Are
  21. craftspeople, for instance, doomed to the fate of the Indian
  22. handloom weavers of the last century - will their bones
  23. bleach the plains? The answer is No. But before seeing
  24. why, we should try to sum up the present status of work in
  25. AI. The current achievements of AI are small but promising:
  26. its present and coming performance in strictly delimited
  27. fields, with expert systems in particular, is even more
  28. promising. But AI holds no promise whatsoever for
  29. eventually eclipsing human intelligence. To see more
  30. support for this last assertion than can be given here, the
  31. best introduction is probably two books (What Computers
  32. Can't Do, and Mind Over Machine) by the Dreyfus brothers.
  33. This dynamic duo comprises two Berkeley professors, one
  34. (Hubert) a philosopher and the other (Stuart) in Industrial
  35. Engineering and Operations Research. They have been
  36. puncturing various AI balloons for a decade or two now -
  37. releasing, appropriately enough, large volumes of hot gas.
  38.  
  39. The leading figures in AI research have certainly seen their
  40. work as opening up an apparently unlimited range of human
  41. activity to the machine, making craft, apparently, mere
  42. child's play. Herbert Simon, a Nobel Prize winner, has
  43. declared that '...within ten years most theories in
  44. psychology will take the form of computer programs'. Thus
  45. equipped with the laws of human behaviour, telling it which
  46. stimulus will produce a desired response, a computer-
  47. directed robot should certainly be able to toss off a
  48. striking tapestry or two. Or a million... Simon again:
  49. 'Machines will be capable, within twenty years, of doing any
  50. work that a man can do'. Another leader, Marvin Minsky from
  51. MIT, has predicted that 'within a generation, the problem of
  52. creating "artificial intelligence" will be substantially
  53. solved'.
  54.  
  55. We can hardly fail to be impressed by the clarity of these
  56. statements, and by their courage in laying down definite
  57. time limits: within ten years, within twenty years, within a
  58. generation. Before declaring ourselves and our species
  59. obsolete, however, we should note when these three
  60. predictions were made: in 1957, 1965 and 1967 respectively.
  61. Not one has been realized. Not one has even come much
  62. closer to fulfilment. When the media cover the issue, they
  63. tend even now to repeat such claims while observing a
  64. tactful silence about the previous fiascos. Often the
  65. stories even adhere to the same decades-old format: no, they
  66. can't do these things just yet, but there are exciting
  67. results that show they have taken the first step, and the
  68. really big developments are just around the corner...
  69.  
  70. But having made the first step does not count for much in
  71. attaining your goal if the path you are on is in fact a
  72. blind alley, and the picture of human intelligence
  73. underlying these 'hard AI' claims seems false enough to
  74. guarantee such a misdirection. For the detailed arguments
  75. against this 'fallacy of the first step', read the Dreyfus
  76. material cited above. A critique that is strongly based on
  77. recent physics (and is much gentler) has been given by Roger
  78. Penrose (in The Emperor's New Mind), who also considers the
  79. less extreme ('soft AI') positions, which are much more
  80. defensible.
  81.  
  82. The extravagant claims quoted above have been well and truly
  83. exploded by the passage of time. But it is only fair to
  84. note the more sober picture that emerges if we turn to more
  85. recent AI literature, such as found in The Foundations of
  86. Artificial Intelligence: A Sourcebook (1990). It is true
  87. that it still exhibits hangovers from the Unbounded Optimism
  88. era:
  89.  
  90. "All fields discuss the nature of man. AI tries to do
  91. something about it. [A] task of AI as a science is to
  92. explain human intelligence... What is common, as
  93. intelligent agents, between Einstein, the man-on-the-street,
  94. the tribesman on a hunt... is that they all face very
  95. similar computational problems..."
  96.  
  97. "[A] recent book by Minsky (one of the founders of AI)
  98. offers computational models for phenomena as diverse as
  99. conflict, pain and pleasure, the self, the soul,
  100. consciousness, confusion, genius, infant emotion, foreign
  101. accents, and freedom of will..."
  102.  
  103. But fantasy trips disguised as 'science', like these, now
  104. face more realistic competition. Other writings in this
  105. collection show that many AI workers are now making serious
  106. efforts to define the nature and limitations of their field,
  107. in the process grappling with fundamental and very difficult
  108. questions.
  109.  
  110.  
  111. A 'BRAIN' WITHOUT A BODY?
  112.  
  113. But what was wrong with the picture of 'intelligence' that
  114. guided these past - and, unfortunately, present - trips into
  115. fairyland? It is salutary to look at one line of contrary
  116. argument, developed particularly by Hubert Dreyfus.
  117.  
  118. If human capabilities are to be equalled by a computer, they
  119. must be based on the following of rules; computers can do
  120. nothing else. Of course, sometimes we do resort to rules; a
  121. learner driver will mutter: first neutral gear, then the
  122. ignition key, then the handbrake off ... But once past the
  123. novice stage, there is usually no sign that a conscious rule
  124. is being followed. To rescue the 'humanoid computer'
  125. project, one has to assume that all our skilled behaviour
  126. comes from following a rule, whether we are conscious of the
  127. rule or not. But this notion of 'unconscious rules' has
  128. little to support it, and much against it. As Dreyfus
  129. notes:
  130.  
  131. "The important thing about skills is that, although science
  132. requires that the skilled performance be described according
  133. to rules, these rules need in no way be involved in
  134. producing the performance."
  135.  
  136. A computer needs rules because the objects it deals with
  137. must be clearly defined, and what it is to do next must be
  138. unambiguously written in its programme. The data available
  139. to the programme is some well-delimited set chosen because
  140. of its relevance to the programme's purpose - it is the
  141. programmer, of course, who decides on that purpose, and
  142. chooses the data which will be relevant to it. Thus the
  143. computer operates in a small, self-contained, relatively
  144. unpuzzling world. In contrast, we poor humans have to
  145. lumber along in a world capable of infinite novelty and do
  146. the best we can with it. We have to make do with objects
  147. that we can make out only hazily, tentatively change our
  148. criteria of relevance in response to new experience,
  149. tentatively impose patterns - patterns that generally defy
  150. analysis - in attempting to understand a situation.
  151.  
  152. Aware of such valuable features in the human psyche, AI
  153. researchers have naturally shown great interest in
  154. developing programmes that can learn. Early work here
  155. relied strongly on behaviourist theories, in which human
  156. learning is seen largely as a matter of simple stimulus-
  157. response conditioning, reinforcement and excitation
  158. frequency, all easily programmable. But a body of
  159. experimental work has now put a large question mark over
  160. such theories, and shown how some of the most elementary
  161. conditioning results actually depend on the experimental
  162. context and may differ according to the subject's choice.
  163. Indeed, and even more remarkably, there is now evidence that
  164. non-human and even non-mammalian animals may form patterns
  165. and use them to shape their perception of the 'input
  166. stimulus' variously, in an altogether similar way. If we
  167. look at the experimental findings we will be inclined to
  168. ask, not whether a computer could 'learn' like a human
  169. being, but rather whether it could ever learn as effectively
  170. as a pigeon.
  171.  
  172. We might even ask: will any computer ever have as much
  173. common sense as a pigeon? For it has turned out - as the
  174. discussion above might well lead us to expect - that common
  175. sense is immensely harder to program than logical thought.
  176. Grappling with this problem, Minsky writes:
  177.  
  178. "...common sense works so well not because it is an
  179. approximation of logic; logic is only a small part of our
  180. great accumulation of different, useful ways to chain things
  181. together."
  182.  
  183. Demurring from Minsky's proposal to program these various
  184. 'chaining' methods, Terry Winograd observes in Thinking
  185. Machines:
  186.  
  187. "The rules followed by the machine can deal only with the
  188. symbols, not their interpretation... There are basic limits
  189. to what can be done with symbol manipulation, regardless of
  190. how many 'different, useful ways to chain things together'
  191. one invents. The reduction of mind to the interactive sum
  192. of decontextualized fragments is ultimately impossible and
  193. misleading."
  194.  
  195.  
  196. THE BODY: COSTS AND BENEFITS
  197.  
  198. But if our skills cannot generally be reduced to rules,
  199. where do they come from? Dreyfus emphasizes in his account
  200. how they originate in, and continually depend upon, bodily
  201. experience. It is because we are embodied that we have
  202. learnt - that we have had to learn - how to make sense out
  203. of experiences that are different in quality and yet
  204. simultaneous, what our eyes tell us and what our hands tell
  205. us, for example. Originally, it is to negotiate our way
  206. through the physical world that we form patterns with which
  207. to organize it, and expectations based upon these patterns.
  208. Equipped with these patterns and expectations, we can pass
  209. most of the time in a world that is now familiar; and yet
  210. the patterns and expectations have this extraordinary virtue
  211. of remaining open to correction, so that new phenomena do
  212. not necessarily leave us floundering. Thus we semi-automate
  213. our responses, so that the sensory world does not present
  214. itself as an arena we must permanently struggle to
  215. understand, and we can cope without a constant drain on our
  216. energy and attention. If any human quality deserves the
  217. name of 'intelligence', it is hard to think of a better
  218. candidate than what we thus start to develop: the ability to
  219. cope.
  220.  
  221. As Dreyfus puts it in What Computers Can't Do:
  222.  
  223. "...[A]n embodied agent can dwell in the world in such a way
  224. as to avoid the infinite task of formalizing everything...
  225. these global forms of recognition are not open to the
  226. digital computer, which, lacking a body, cannot respond as a
  227. whole but must build up its recognition starting with
  228. determinate details.."
  229.  
  230. Thus, in the situations where automated response is all that
  231. is required - where objects are well-defined, the body of
  232. 'relevant' data is clearly circumscribed, patterns do not
  233. need adapting, and expectations are never disappointed - we
  234. can just coast along using programmes of response derived
  235. from past experience.
  236.  
  237. It is in such fields of activity, where creative and complex
  238. thought is not demanded, that formal logic and the computer
  239. can thrive quite well. But such cases are rarer than
  240. generally believed. For example, most people would probably
  241. see mathematics as the archetype of the kingdoms where
  242. formal logic holds sway; but this is often because they are
  243. thinking of an unrepresentative case, that of arithmetic.
  244. In mathematics generally, it is far different. As Penrose
  245. (himself a mathematician) writes in The Emperor's New Mind:
  246.  
  247. "People might suppose that a mathematical proof is conceived
  248. as a logical progression, where each step follows upon the
  249. ones that have preceded it. Yet the conception of a new
  250. argument is hardly likely actually to proceed in this way.
  251. There is a globality and seemingly vague conceptual content
  252. that is necessary in the construction of a mathematical
  253. argument..."
  254.  
  255. (Of course, the argument can always be reconstructed as a
  256. logical progression.)
  257.  
  258. What may seem a paradoxical conclusion emerges from this: a
  259. major reason why the computer will never duplicate human
  260. intelligence is that it has no body with which to meet the
  261. world. This is where we come to some interesting
  262. consequences for the computerizing of skills, craft skills
  263. in particular.
  264.  
  265.  
  266. CRAFT, SKILL AND 'VIRTUAL REALITY'
  267.  
  268. Craft relies - perhaps more heavily than 'high art' - on
  269. those crucial features of human understanding that derive
  270. from and depend upon bodily experience: how materials resist
  271. or yield, what they feel like - the staggeringly complex
  272. integration of sensory data and instinctual needs that is
  273. implied by a phrase like 'security blanket'. A computer
  274. might well be programmed to control machines that duplicate
  275. or clumsily plagiarize an existing craft work, just as
  276. colour photocopiers can be expected eventually to turn out
  277. remarkably similar copies of the Mona Lisa. (According to
  278. press reports, they are already supplying passable
  279. imitations [literally!] of a fifty-dollar note.) But no
  280. original pieces of creative craft need ever be expected to
  281. roll off the numerically controlled production line. (It is
  282. worth observing that the output from such a production line
  283. need not be monotonously uniform. Numerical control can
  284. easily avoid the perfect sphere or the rigidly straight
  285. line, adding random deviations that are perceptible to the
  286. eye or hand. If there is enough demand, those who just want
  287. bumps for the sake of bumpiness will have factories catering
  288. to their needs.)
  289.  
  290. It might be pertinent to suggest a special significance for
  291. craft in today's world. That world is one where 'virtual
  292. reality' threatens to substitute for reality. Face-to-face
  293. human encounters are increasingly undermined and constricted
  294. as they are replaced by mediated and abstract relationships;
  295. 'technocratic rationality', economic efficiency, the
  296. inevitability of 'progress' are assumed to justify changes
  297. that are often dubious, unwelcome to most people and even
  298. horrendous. If 'high art' celebrates such developments, or
  299. even presents them neutrally, it risks losing its expected
  300. critical edge. And if we reject the ideology which insists
  301. that such a daunting world is 'inevitable', we might detect,
  302. and be glad to see, a critique at least tacit in craft work
  303. which revives older experiences now in danger of being lost:
  304. the feel of a blanket, the weight of stone - not in 'virtual
  305. reality', but in one's hand.
  306.  
  307. Of course, such a critique can be either reactionary or
  308. forward-looking. It may convey a naive desire for the past
  309. to be re-created just as it was - for the lost virtues to
  310. emerge in the same social surroundings as they once did, for
  311. people to be close inside the (patriarchal) extended family
  312. or the (narrow-minded and exclusionary) village community.
  313. Or, on the other hand, it might express a desire to recover
  314. what is lost or endangered but to situate it in a framework
  315. of more expansively convivial relationships. That these can
  316. be envisaged only dimly might be regarded as no excuse to
  317. abandon the hope for them.
  318.  
  319. We might draw a salutary lesson from all this. Even if
  320. 'technological progress' has been made into an ideology, it
  321. is certainly not a pure myth and we need to be alert to
  322. those of its promises and threats which happen to be real;
  323. but we also need to keep a sharp lookout for 'scientific'
  324. con-jobs. Recall how, in the field of nuclear power, the
  325. vision of 'electricity too cheap to meter' was dangled
  326. before us to silence the doubters. Remember how freeways
  327. were going to solve the problems of expanding road traffic.
  328. And once upon a time, the benevolent scientific genie was
  329. about to wave his wand and reduce the working week to twenty
  330. hours, to ten hours...
  331.  
  332. The claims of AI researchers above are probably extreme
  333. examples of such a ploy, and they are by no means innocent.
  334. After considering the social role of AI in general, Terry
  335. Winograd - one of the more enlightened leaders in the field
  336. - offers a disturbing conclusion (his own italics): "[T]he
  337. techniques of artificial intelligence are to the mind what
  338. bureaucracy is to human social interaction."
  339.  
  340. The alleged march of the robots gives this bureaucratic
  341. nightmare its intimidating clincher. If we are all nearing
  342. our use-by date anyway, due for replacement by smarter, more
  343. durable beings made from steel, carbon fibre and plastic,
  344. then obviously there is little point in struggling to
  345. preserve the merely human... Actually, if we felt unkind,
  346. we could say that those who peddle such daydreams and
  347. nightmares are refuting their own claims in the very act of
  348. making them. Surely they are demonstrating that no machine
  349. will ever out-do homo sapiens in the specifically human
  350. skill of wanking.
  351.  
  352.  
  353. Alan Roberts, originally a physicist, now researches in
  354. theoretical ecology at Monash University.This article is
  355. based on an paper to the craft conference 'Interventions',
  356. July 1992. An earlier version appeared in the Winter 1992
  357. issue of Artlink.
  358.  
  359. -----------------------------------------------------------
  360. Arena Magazine is published six times a year by:
  361. Arena Printing and Publishing Pty Ltd
  362. 35 Argyle Street, Fitzroy, 3065, Australia.
  363. Email: <pwilken@peg.apc.org>.
  364.  
  365. The material in Arena Magazine is copyright. Permission is
  366. given to republish articles, in either electronic or paper
  367. form, so long as: (1) it is for non-profit purposes; (2) that
  368. the text of all work remains intact (including this copyright
  369. notice); and (3) notification is sent to Arena Publishing,
  370. either by snail or email. Applications from commercial
  371. publishers will be considered.